Перейти к основному содержимому

8.06. ИИ не заменит профессии

Всем

ИИ не заменит профессии

Часть 1. Институциональные иллюзии: почему корпоративный ИИ терпит крах, а индивидуальная продуктивность — нет

Внедрение технологий в организациях подчинено не технической логике, а институциональной. Искусственный интеллект как концепция стал идеологическим проводником для перераспределения ресурсов внутри компаний: от людей — к инфраструктуре; от экспертов — к поставщикам; от решения задач — к демонстрации «трансформации». Это не технологический феномен, а социальный и экономический — и именно в этом кроется причина 95%-ного провала пилотных проектов, зафиксированного MIT NANDA в 2025 году.

Следует четко разделить два режима функционирования ИИ:

  1. Индивидуальный — когда инструмент (ChatGPT, Copilot, Claude) используется автономно опытным специалистом для усиления своей производительности. Здесь наблюдается устойчивый рост эффективности: ускорение генерации кода, сокращение времени на оформление документации, помощь в поиске релевантных паттернов решения.
  2. Корпоративный — когда ИИ внедряется как системное решение, встроенное в бизнес-процессы, с ожиданием масштабного сокращения издержек, в том числе за счет сокращения персонала.

Эти два режима имеют принципиально различную природу. Первый — инструментальный: человек остаётся в центре, ИИ — усилитель. Второй — институциональный: система подменяет человека, а человек превращается в «контроллера качества генерации». Именно во втором режиме и ломается связь между затратами и результатом.

Почему?

Потому что внедрение ИИ в организации требует не просто интеграции API, а трансформации рабочих практик, перераспределения ответственности, переосмысления архитектуры знаний и перестройки системы мотивации. Ни одна из этих задач не решается закупкой лицензии или наймом «prompt-инженера». Это долгосрочные, трудоёмкие, управленческие процессы, для которых большинство корпоративных структур неготовы — не по техническим, а по когнитивным и организационным причинам.

Когда руководитель объявляет: «Мы внедряем ИИ для роста прибыли», он оперирует абстракцией, а не моделью. Он не различает, где именно будет применён инструмент: в front-office, где важна персонализация и эмоциональный интеллект (и где ИИ слаб), или в back-office, где преобладают структурированные, повторяющиеся задачи (и где ИИ действительно эффективен). Исследование MIT указывает: максимальную рентабельность показывает автоматизация бэк-офисных операций — обработка инвойсов, согласование контрактов, генерация отчётности, управление HR-циклическими процессами. Однако более 50% бюджетов уходит в маркетинг и продажи, то есть туда, где требуется не скорость генерации, а глубина понимания клиента, стратегическое мышление и адаптация к контексту — качества, которые современные LLM принципиально не обладают.

И здесь возникает критический диссонанс.

Компания закупает инструмент, предназначенный для усиления экспертизы, и пытается использовать его вместо экспертизы. Отсюда — теневой ИИ (сотрудники используют Copilot «в обход» ИТ-отдела), отсюда — неудовлетворённость бизнес-лидера результатами: «Мы вложили $2 млн, а прибыль не выросла». Потому что прибыль растёт не от наличия ИИ как такового, а от умения его встроить в цепочку создания ценности. А это требует не только технических, но и методологических преобразований — например, перехода от модели «задача-исполнитель» к модели «цель-агент», где человек определяет не действия, а критерии успеха, а ИИ предлагает варианты реализации. Подобные изменения требуют переподготовки не только сотрудников, но и менеджеров среднего звена — тех самых линейных руководителей, о которых говорит MIT как о ключевом факторе успеха.

Но наиболее глубокая причина провалов лежит в другой плоскости — в эпистемологии корпоративного принятия решений.

Компании принимают решение об ИИ не на основе анализа собственных процессов, а на основе сравнения с внешними нарративами. Если конкурент объявил о «полной автоматизации службы поддержки», это создаёт давление на принятие аналогичного решения, даже если у компании совершенно иная модель клиентского взаимодействия (например, B2B с длительным циклом принятия решений, где роль менеджера принципиальна). Так формируется симулякр инновации — система, имитирующая трансформацию, но сохраняющая старую логику. И именно такие системы первыми сталкиваются с эффектом «boomerang hiring»: через 12–18 месяцев после массового увольнения сотрудников поддержки, аналитиков или техписателей, компания вынуждена возвращать тех же людей — потому что оказалось, что ИИ не может обрабатывать исключения, не может объяснять свои решения клиенту, не может корректировать поведение под изменения регуляторной среды.

Нейросети — это экстраполяторы прошлого, а не генераторы будущего. Они обучены на ретроспективных данных; они не умеют вводить новизну, не умеют нарушать шаблоны, не умеют нести ответственность. Именно поэтому они эффективны в рутинных доменах и беспомощны в стратегических. Человек остаётся незаменимым не потому, что «умнее», а потому, что он агент с намерением, способный действовать вне данных, в условиях неопределённости, с учётом этических, социальных и долгосрочных последствий.


Часть 2. Экономика внедрения: почему вендорные решения работают лучше внутренних разработок

MIT констатирует: успешность внедрения при использовании решений от специализированных поставщиков достигает ~67%, тогда как внутренние разработки успешны лишь в ~22% случаев. Эта разница не случайна — она отражает фундаментальный принцип разделения труда в экосистеме ИИ.

Современные ИИ-системы — это не monolithic-продукты, а многоуровневые стеки:

  • уровень базовых моделей (foundation models: Llama, Qwen, Claude, GPT, Gemini),
  • уровень fine-tuning и адаптации (LoRA, PEFT, domain-specific instruction tuning),
  • уровень интеграции в процессы (agents, orchestration, RAG, tool use),
  • уровень мониторинга и управления (LLMOps, drift detection, human-in-the-loop).

Каждый уровень требует специфической экспертизы, инфраструктуры и культуры. Попытка сконструировать всё «под ключ» внутри компании — это не инновация, а анти-экономичное дублирование.

Рассмотрим пример:
Финансовый институт решает создать внутреннюю LLM для анализа кредитных заявок. Он собирает команду из 15 ML-инженеров, закупает GPU-кластер, тратит 8 месяцев на сбор и анонимизацию данных, ещё 4 — на fine-tuning и валидацию. В итоге модель даёт F1-score 0.89 на внутреннем тесте, но при запуске в production выясняется:

  • модель не справляется с новыми форматами документов, появившимися после 2024 года;
  • объяснения решений непрозрачны для регулятора;
  • время инференса превышает SLA;
  • затраты на поддержку превышают экономию от автоматизации.

В то же время, специализированный вендор в области финтеха уже предоставляет решение, обученное на регуляторных актах 27 юрисдикций, с встроенной системой аудит-трейлов и совместимостью с основными CRM. Его модель имеет F1-score 0.91, но главное — она обновляется каждый квартал по мере изменения законодательства, и её владелец несёт регуляторную ответственность.

Почему внутренние разработки проваливаются?

  1. Недооценка стоимости жизненного цикла модели. Обучение — это 10% усилий; 90% — это мониторинг, переобучение, управление смещениями, интеграция с legacy-системами.
  2. Отсутствие масштаба данных. Ни одна компания, кроме гиперскейлеров, не может сравниться с объёмом и разнообразием данных, на которых тренируются базовые модели. Fine-tuning не компенсирует фундаментального дефицита представлений.
  3. Слабая инженерная дисциплина в области LLM. Большинство IT-отделов сильны в классическом софтверном цикле (CI/CD, тестирование), но не имеют опыта работы с вероятностными системами, где результат не детерминирован, а требует вероятностного контроля.
  4. Конфликт интересов внутри организации. ИТ-отдел хочет контроль, бизнес — скорость, compliance — аудируемость. Вендор выступает нейтральным арбитром, предоставляя SLA и гарантии.

Именно поэтому Alibaba, Nvidia, Microsoft строят не модели как продукт, а экосистемы как платформу — и это ключ к их устойчивости.

Часть 3. Альтернативные модели развития: Alibaba, DeepSeek и стратегия «инфраструктурного ИИ»

Существует фундаментальное заблуждение в западной бизнес-аналитике: что успешность в ИИ измеряется исключительно через прямую монетизацию пользовательских взаимодействий — подписки, usage-based pricing, freemium-конверсии. Эта модель доминирует у OpenAI, Anthropic, и частично Google. Однако она чрезвычайно ресурсоёмка, зависит от PR-нарративов и крайне чувствительна к циклам внимания.

В отличие от этого, Alibaba Group демонстрирует стратегию, которую можно назвать «ИИ как инфраструктурная надстройка над реальной экономикой». Эта модель не претендует на создание AGI и не позиционирует ИИ как конечный продукт. Вместо этого — он становится невидимым слоем, усиливающим эффективность существующих, устойчивых бизнес-линий: электронной коммерции, логистики, облачных вычислений и финансовых сервисов.

Ключевой инструмент — Qwen, семейство моделей, разрабатываемых Alibaba Cloud. Но в отличие от GPT, Qwen не продвигается как «ассистент для всех». Его фокус — B2B и B2B2C:

  • интеграция в Taobao и Tmall для персонализации поиска, динамической ценовой рекомендации и автоматической генерации товарных описаний (экономия сотен тысяч человеко-часов в год);
  • внедрение в Cainiao Logistics для оптимизации маршрутов доставки в реальном времени с учётом погоды, трафика и складских остатков;
  • использование в Ant Group (Alipay) для детекции мошеннических транзакций с латентностью <15 мс — критически важно при обработке >5 млрд операций ежедневно.

Заметим: ни один из этих кейсов не требует «замены человека». В логистике — ИИ предлагает маршрут, человек-диспетчер корректирует его при исключительных обстоятельствах. В финтехе — ИИ флагирует подозрительную транзакцию, аналитик проводит финальную верификацию. В e-commerce — ИИ генерирует черновик описания, редактор проверяет его на соответствие бренду и юридическим нормам.

То есть ИИ у Alibaba — это усилитель масштаба, а не заменитель функции. И именно поэтому он монетизируется косвенно:

  • рост среднего чека на 3–5% за счёт персонализации → рост выручки без дополнительных маркетинговых затрат;
  • сокращение времени доставки на 12% → рост NPS и удержания клиентов;
  • снижение фрод-потерь на 22% → прямая экономия в сотни миллионов долларов в год.

Такая модель устойчива, потому что она не зависит от «хайпа», а привязана к операционной эффективности. Она не требует объяснения инвесторам, почему «стоимость inference на одного пользователя растёт», — потому что в Alibaba никто не платит за inference напрямую. Затраты закладываются в OPEX облака и амортизируются через рост прибыли смежных подразделений.

Это прямой контраст с моделью, основанной на API-продажах, где цена запроса — основной KPI, а рост пользовательской базы — единственный путь к окупаемости. У Alibaba нет «пользователей Qwen» — есть пользователи Alibaba, чей опыт стал лучше благодаря Qwen.


DeepSeek: открытость как геополитическая и технологическая стратегия

Китайская компания DeepSeek представляет ещё одну интересную модель — «контролируемая открытость». В 2024–2025 годах она выпустила серии моделей DeepSeek-VL (мультимодальные), DeepSeek-Coder (специализированные для кода) и DeepSeek-R1 (reasoning-first), все — под лицензиями, допускающими коммерческое использование, но с ограничениями на редистрибуцию весов и запретом на использование в военных целях.

Это не «open weights» в духе Meta (Llama), где модель отдаётся почти без условий. Это стратегический открытый исходный код — инструмент, предназначенный для:

  1. ускорения adoption в азиатских и развивающихся рынках, где компании не хотят зависеть от западных API (из-за латентности, цензуры, санкций);
  2. создания экосистемы интеграторов, которые берут базовую модель и адаптируют её под локальные задачи (медицина в Индии, сельское хозяйство в Бразилии, госуправление в странах АСЕАН);
  3. снижения барьеров для исследований, что усиливает научный имидж Китая и привлекает таланты.

DeepSeek не продаёт inference. Она не конкурирует с OpenAI в потребительском сегменте. Вместо этого — она становится инфраструктурным стандартом де-факто в регионах, где доминирование западных моделей считается стратегическим риском. Государственные учреждения в ОАЭ, Индонезии, Саудовской Аравии уже тестируют DeepSeek-R1 как основу для внутренних ассистентов — не потому, что он «лучше GPT», а потому, что он независим, адаптируем и политически нейтрален.

Это — модель «мягкой технологической экспансии», где ценность создаётся не через прямые продажи, а через стандартизацию. И она работает: по данным MIT NANDA, в 2025 году DeepSeek занимала второе место (после Llama) по числу enterprise-внедрений в Азии и Африке, несмотря на отсутствие маркетингового бюджета и офисов за пределами Китая.


Часть 4. OpenAI и Google: ИИ как финансовый и инфраструктурный инструмент

Ситуация с OpenAI и Google (Gemini) принципиально иная. Ни одна из этих компаний не зарабатывает сегодня на ИИ как на продукте.

OpenAI — это, по сути, совместное предприятие Microsoft, где Microsoft:

  • финансирует >70% CapEx (Stargate, дата-центры в Вайоминге, Висконсине и Огайо);
  • предоставляет Azure как единственную production-инфраструктуру;
  • распределяет GPT через Copilot в Office, GitHub, Dynamics 365 — то есть монетизирует ИИ в рамках существующего подписочного бизнеса, а не как отдельную линию.

При этом OpenAI остаётся неприбыльной: в 2024 году её выручка от API и ChatGPT Plus составила ~$3.2 млрд, а операционные расходы — $4.1 млрд (источник: WSJ, leaked financials). Её «стоимость» ($80–100 млрд в последнем раунде) базируется не на прибыли, а на стратегическом контроле над доступом к передовым LLM — ресурсом, без которого Microsoft теряет конкурентное преимущество перед Google и Amazon.

Gemini — аналогично. Google не продаёт Gemini как отдельный продукт. Он вшит в Workspace, Search, Android, Bard (переименованный в Gemini), и, главное — в Google Cloud Vertex AI. Здесь ключевой продукт — не модель, а платформа для fine-tuning, RAG и агентов. Прибыль Google Cloud росла на 28% в 2024 году — и аналитики Goldman Sachs оценивают, что ~15 п.п. роста связаны с миграцией клиентов enterprise-сегмента на Vertex AI с конкурентов (AWS Bedrock, Azure AI).

То есть и OpenAI, и Google используют ИИ как:

  • финансовый мультипликатор (рост капитализации через нарратив);
  • инфраструктурный якорь (удержание клиентов в экосистеме);
  • барьер входа (увеличение стоимости перехода к конкуренту).

Но — и это принципиально — они не демонстрируют прямой ROI от ИИ в сторонних компаниях. Напротив: как показал MIT, 95% организаций, использующих их API, не видят роста выручки. Их успех — это успех поставщика инфраструктуры, а не потребителя технологии.

Именно поэтому «возврат сотрудников» не угрожает Microsoft или Google. Их бизнес-модель не строится на сокращении персонала у клиентов. Наоборот — чем сложнее внедрение, тем больше консалтинговых услуг, тем больше потребность в Azure/GCP — и тем выше их доход.


Часть 5. Что это значит для специалиста? Стратегия выживания и роста в эпоху разочарования в ИИ

Теперь — к сути.

Если вы — разработчик, аналитик, техписатель, инженер, менеджер — вас не уволят из-за ИИ. Вас уволят из-за неправильного внедрения ИИ.

Разница колоссальна.

В первом случае — технология объективно делает вашу роль избыточной. Во втором — руководство, пытаясь сократить затраты, ломает процессы, теряет экспертизу, и через 12–18 месяцев вынуждено вернуть вас — но уже с премией за «срочность» и «дефицитность».

Это создаёт уникальное окно возможностей — период когнитивной перегруппировки, когда рынок ещё не адаптировался, но уже осознал ошибку.

Ваши действия должны быть направлены не на борьбу с ИИ, а на встраивание в новую иерархию ценности:

1. ИИ-неграмотность — новая профессиональная уязвимость. Не изучайте «prompt-инжиниринг» — изучайте архитектуру ИИ-систем.

Знать, как работает RAG — важнее, чем знать 10 хитрых промптов. Уметь оценить drift модели, понимать trade-off между latency и accuracy, разбираться в fine-tuning vs. retrieval — вот что делает вас экспертом в принятии решений об ИИ, а не оператором на кухне.

Компаниям нужны не «пользователи Copilot», а те, кто может объяснить, почему в их домене Copilot будет давать 30% ложных срабатываний.

2. Софт-скиллы — теперь hard skills.

Когда ИИ генерирует код, текст, дизайн — ценность смещается в определение задачи, оценку результата, управление исключениями. Это требует:

  • критического мышления — способности отличать plausible от valid;
  • коммуникации в условиях неопределённости — объяснять нетехническим стейкхолдерам, почему ИИ «не может этого сделать»;
  • этической рефлексии — предвидеть, какие решения модели приведут к репутационным или юридическим рискам.

Эти навыки не автоматизируются — они усиливаются ИИ, потому что ИИ увеличивает объём принимаемых решений в единицу времени.

3. Специализация > Универсализм.

Генеративные модели сильны в усреднённых, массовых задачах. Они слабы в контекстно-зависимых, регулируемых, нишевых.

  • Разработчик BPMN-процессов в ELMA365 или BPMSoft — в безопасности, потому что его работа требует знания конкретной предметной области (бухгалтерия, HR, закупки), корпоративных политик, локального законодательства.
  • Техписатель, умеющий писать документацию под требования ГОСТ Р, ISO 26262 или HIPAA — востребован, потому что ИИ не знает, как интерпретировать «должен» vs «может» в стандартах.
  • Инженер, работающий с legacy-системами (1С, SAP R/3, IBM Mainframe) — незаменим, потому что эти системы не имеют API, не имеют структурированных логов, и их знание передаётся через неформализованный опыт.

Чем глубже ваша экспертиза в конкретной системе, конкретном регуляторном контексте, конкретной отрасли — тем выше ваша устойчивость.

4. Станьте «человеком-интерфейсом».

Будущее — за гибридными ролями:

  • AI Integration Specialist — не ML-инженер, а специалист по встраиванию ИИ в процессы;
  • Human-in-the-Loop Designer — проектирует циклы, где ИИ делает 80%, человек — 20%, но именно эти 20% определяют качество;
  • AI Auditor — проверяет соответствие моделей внутренним политикам и внешним стандартам (например, EU AI Act).

Эти роли требуют двойной компетенции: понимания ИИ + глубокого знания предметной области. И их не заменить одним «специалистом по ИИ».


Часть 6. Пять лет до коррекции: сценарии развития до 2030 года и стратегия индивидуального роста в условиях структурного разочарования

На основе данных MIT NANDA, Visier и Orgvue можно смоделировать три ключевых сценария развития корпоративного ИИ к 2030 году — от наиболее вероятного до экстремального.

Сценарий А: Коррекция и редистрибуция (вероятность: ~65%)

Это — базовый сценарий, уже набирающий обороты. Компании признают, что генеративный ИИ не является инструментом прямой монетизации, а представляет собой платформу для повышения операционной эффективности. В результате:

  • Сокращается число «AI-first» стартапов, ориентированных на создание универсальных ассистентов; вместо них растёт количество domain-specific решений — для юриспруденции (Clio AI), медицины (Hippocratic AI), инженерии (Siemens NExT), BPM (Camunda Copilot).
  • Происходит консолидация рынка поставщиков моделей: OpenAI, Google, Anthropic, Meta, Alibaba, и, возможно, DeepSeek останутся как базовые «ядра»; остальные (~70% из 498 «единорогов» по данным CB Insights) либо будут поглощены, либо исчезнут.
  • Ускоряется переход от «применения ИИ» к «управлению ИИ»: появляются стандарты (например, NIST AI RMF 2.0, EU AI Act), обязательные аудиты моделей, требования к локализации данных и explainability. Это делает внедрение дороже, но — критически — предсказуемее.
  • «Бумеранг-найм» становится нормой: компании возвращают не просто сотрудников, а реорганизуют HR-политику — вводят программы «реактивации экспертизы», резервные контракты с бывшими сотрудниками, внутренние marketplaces для временного найма «на проект».

В этом сценарии рынок труда проходит через временную поляризацию:

  • Джуниоры и mid-level в массовых профессиях (копирайтеры, junior-разработчики, колл-центр) испытывают давление: их задачи легко частично автоматизировать, а конкуренция — высока.
  • Специалисты с deep domain knowledge (например, BPM-аналитики в госсекторе, инженеры по интеграции legacy-систем, техписатели в регулируемых отраслях) — востребованы, потому что ИИ не может заменить неформализованную экспертизу, накопленную годами работы в конкретной экосистеме.

Это — не «чёрная полоса», а период переквалификации через специализацию. Тот, кто вместо того, чтобы гнаться за «ИИ-навыками», углубляет знание системы, процесса, регуляторной среды — выигрывает.


Сценарий Б: Регуляторный кризис и фрагментация (вероятность: ~25%)

Если в 2026–2027 годах произойдут крупные инциденты, связанные с генеративными моделями (например, массовая утечка данных через RAG-системы, принятие критически неверных решений в здравоохранении или авиации), регуляторы могут ввести жёсткие ограничения:

  • запрет на использование LLM в критически важных системах без human-in-the-loop;
  • обязательная локализация и аудит всех fine-tuned моделей;
  • налог на inference-вычисления (по аналогии с углеродным налогом).

Это приведёт к фрагментации рынка:

  • Запад (ЕС/США) — строгий compliance, медленное внедрение, упор на small, auditable models;
  • Китай — суверенные модели (Qwen, DeepSeek), интегрированные в государственные и корпоративные стеки;
  • БРИКС+ — «гибридные» решения, сочетающие open-weight модели с локальной адаптацией.

В этом сценарии ценность приобретают инженеры по совместимости — специалисты, умеющие работать в условиях множественных стеков, локальных требований и несовместимых API.


Сценарий В: Технологический прорыв и AGI-триггер (вероятность: ~10%)

Если в 2027–2028 годах будет достигнут качественный скачок — например, появление надёжных агентных систем, способных:

  • обучаться на одном примере (one-shot learning в реальных условиях);
  • сохранять long-term memory без дрейфа;
  • объяснять решения на уровне, приемлемом для регулятора;
  • взаимодействовать с legacy-системами через natural language interface,

— тогда действительно начнётся массовая трансформация профессий. Но и в этом случае замена будет не линейной, а функциональной:

  • не «программист → уволен», а «программист → архитектор ИИ-агентов»;
  • не «аналитик → уволен», а «аналитик → дизайнер критериев для агентов»;
  • не «техписатель → уволен», а «техписатель → куратор этических стандартов генерации».

То есть профессии не исчезнут — они трансформируются. И ключевым фактором выживания станет гибкость когнитивных рамок: способность не просто осваивать новые инструменты, а переосмысливать свою роль в новой системе координат.


Часть 7. Практическая стратегия: что делать уже сейчас

На основе всех вышеизложенных тезисов можно сформулировать пятилетний план устойчивого развития для IT-специалиста, независимо от возраста, опыта или специализации.

1. Инвестируйте в «непереносимую экспертизу»

Это — знания, которые нельзя извлечь из публичных данных и не может воспроизвести LLM:

  • особенности BPM-систем в госзакупках (например, как работает «Единая информационная система в сфере закупок» в связке с ELMA365);
  • нюансы интеграции 1С с внешними API (как обойти ограничения COM-соединений, как работать с неофициальными расширениями);
  • локальные регуляторные требования (ФЗ‑152, приказы Минцифры, ГОСТ Р ИСО/МЭК 25010).

Чем конкретнее и контекстнее ваша экспертиза — тем выше барьер для автоматизации.

2. Станьте «переводчиком между мирами»

ИИ усиливает разрыв между:

  • техническими специалистами и бизнесом;
  • регуляторами и разработчиками;
  • пользователями и системами.

Ваша задача — научиться формулировать требования к ИИ на языке рисков, а не возможностей:

  • не «нужен чат-бот», а «нужен интерфейс, снижающий вероятность ошибки при оформлении договора до <0.1%»;
  • не «автоматизировать поддержку», а «сократить время на решение запросов второго уровня с 48 до 4 часов без роста NPS-оттока».

Это — компетенция инженера требований нового поколения.

3. Развивайте «мета-навыки управления неопределённостью»

ИИ делает мир менее детерминированным. Результат вызова copilot.generate() — вероятностный. Значит, нужно уметь:

  • проектировать системы с резервными петлями контроля (human-in-the-loop, fallback-процессы);
  • оценивать доверительные интервалы для решений ИИ (например, «модель уверена на 70% — требуется верификация»);
  • вести журнал принятия решений — не только что сделал ИИ, но почему человек принял его результат.

Это — основа будущих стандартов качества в инженерии.

4. Создавайте «антихрупкую» карьеру

Антихрупкость (по Нассиму Талебу) — это когда система укрепляется под воздействием стресса. Ваша карьера должна быть устроена так:

  • Диверсификация компетенций: глубокая специализация + смежные зоны (например, BPM + data governance + юзабилити);
  • Контроль над инфраструктурой знаний: не только блог или GitHub, но и структурированная база кейсов, библиотека шаблонов, методология анализа задач — то, что можно масштабировать и передавать;
  • Сетевой капитал: связи с практиками в смежных отраслях (медицина, логистика, финансы) — именно они станут источниками новых задач для ИИ.

5. Не верьте «универсальным рецептам» — стройте личную онтологию

Сейчас наводнение курсов: «Стань prompt-инженером за 2 недели», «Зарабатывай на ИИ без кода», «ИИ заменит всё — готовься».

Это — симптомы когнитивного капитализма: монетизация тревоги.

Вместо этого — задавайте себе системные вопросы:

  • Какие решения в моей работе не формализованы?
  • Какие ошибки чаще всего совершают новички — и почему ИИ их не избежит?
  • Какие ценности моей профессии не сводятся к скорости или стоимости?

Ответы на них — основа вашей профессиональной онтологии — системы смыслов, которая не подвержена модным волнам.


«А что если всё-таки уволили?»

О временной дезорганизации рынка и стратегии в условиях «потерянных лет»

Да, такое возможно — и уже происходит.

Несмотря на всю логику, изложенную выше, индивидуальная несправедливость остаётся реальностью. Менеджмент, под давлением инвесторов, медиа или внутренних KPI (например, «сократить ИТ-бюджет на 20% за квартал»), принимает решения, не основанные на анализе, а на нарративе: «ИИ заменит рутинные задачи — значит, можно сократить 30% штата».

Это — не ошибка технологий. Это — когнитивный срыв в управлении.

Когда увольняют не после пилота, а до него; когда увольняют не на основе метрик ROI, а на основе предположений; когда увольняют не тех, кто выполняет чисто механические операции, а тех, кто знает контекст, — возникает эффект структурного шока.

Компания теряет не «затратную единицу», а неформализованную память организации — знания о:

  • том, почему в 2021 году отказались от интеграции SAP с BPM-системой;
  • как именно обходят ограничения API в госпорталах;
  • кто в Минцифры отвечает за согласование изменений в регламентах.

Эти знания не были документированы, потому что не считались «ценными». Но без них — автоматизация превращается в автоматизированную деградацию.


Что происходит с рынком в такой ситуации?

На микроуровне — это личная трагедия: потеря дохода, репутационный ущерб («почему не удержался?»), эмоциональное выгорание.

На макроуровне — это временная дезорганизация рынка труда, которая развивается по следующему сценарию:

Фаза 1 (2024–2025). Гипероптимизация

Компании массово объявляют о «цифровой трансформации через ИИ». Увольняют от 15% до 40% персонала в поддерживающих функциях (техподдержка, документирование, junior-разработка, QA-тестирование). При этом:

  • бюджеты на ИИ растут (в среднем +63% по данным Gartner);
  • число вакансий в IT падает на 28% (по данным hh.ru, HeadHunter за Q3 2025);
  • среднее время поиска работы для mid-level специалистов увеличивается с 1.8 до 5.2 месяцев.

Рынок входит в состояние неустойчивого равновесия: спрос не исчез — он замирает. Работодатели ждут: «посмотрим, как сработает ИИ — потом решим».

Фаза 2 (2026). Пик разочарования

К концу финансового года 2026 компании закрывают отчёты и видят:

  • рост CAPEX на ИИ-инфраструктуру (+140% к 2023);
  • рост OPEX на поддержку моделей и интеграторов (+90%);
  • при этом:
    • NPS клиентов упал на 11–23 п.п.;
    • время обработки исключений выросло в 3–5 раз;
    • число регуляторных нарушений — увеличилось (особенно в финтехе и госсекторе);
    • внутренние опросы показывают: 68% сотрудников тратят больше времени на «исправление ИИ», чем раньше — на выполнение задач вручную.

Это — момент институционального признания ошибки.
Не все компании признают это публично — но в HR-департаментах начинается тихая волна:

  • активируются резервные контракты с бывшими сотрудниками;
  • запускаются «реактивационные» программы (например, Microsoft Returnship, SAP Back to Work);
  • в вакансиях появляются формулировки: «опыт работы с legacy-системами приветствуется», «знание внутренних регламентов — преимущество».

Фаза 3 (2027–2028). Реставрация и редифференциация

Рынок возвращается к равновесию, но — в новой конфигурации:

  • Зарплаты в IT не возвращаются к пикам 2021–2022, но стабилизируются на уровне на 15–25% ниже, чем до «ИИ-бума». Это — цена за избыточную волатильность.
  • Однако по сравнению с другими секторами (госслужба, розничная торговля, массовый офис) IT остаётся наиболее прибыльной и гибкой средой:
    • средняя зарплата mid-level разработчика — ~140–180 тыс. ₽/мес (по данным SuperJob, 2027 прогноз);
    • госслужащий — 75–95 тыс. ₽;
    • логист/офис-менеджер — 60–85 тыс. ₽.
  • Нефтянка и энергетика сохраняют лидирующие позиции по абсолютным доходам (особенно в инженерных и полевых ролях), но требуют географической мобильности, физической нагрузки и, зачастую, работы вахтовым методом. IT — остаётся доминирующим выбором для тех, кто ценит гибкость, автономию и масштабируемость навыков.

Ключевое изменение: ценность смещается с «умения писать код» на «умения управлять сложностью».
Тот, кто в 2025–2026 годах не просто ждал, а:

  • документировал свои кейсы (даже в личном блоге);
  • участвовал в open-source или community-проектах (например, BPMN.io, ELMA365-community);
  • развивал пересекающиеся компетенции (например, «BPM + data literacy» или «техдок + юзабилити»),

— выходит из кризиса не просто восстановленным, а усиленным. Его знания теперь — не «операционные», а стратегические.


Что делать, если вас уволили сейчас?

  1. Не интерпретируйте это как профессиональную несостоятельность.
    Это — следствие организационной слепоты, а не вашего дефицита. MIT NANDA прямо указывает: 95% провалов ИИ — из-за плохого управления, а не плохих людей.

  2. Используйте «время отсечения» как период калибровки.
    Три месяца — оптимальный срок для:

    • систематизации опыта (напишите 5–10 deep-dive статей о том, как на самом деле работают процессы, в которых вы участвовали);
    • получения micro-credentials (не «курс по ИИ», а, например, «ГОСТ Р для технической документации», «Основы регуляторного compliance в финтехе»);
    • поиска «гибридных» проектов: преподавание, консалтинг, участие в open-source — всё, что формирует видимость экспертизы.
  3. Готовьтесь к «звуку звонка».
    По данным Visier, 5.3% уволенных возвращаются — но 72% из них возвращаются по инициативе бывшего работодателя, а не по своей.
    Это значит: если вы сохраните профессиональную репутацию, связи и — главное — документированную ценность, вас найдут.
    Особенно если вы:

    • работали с критически важными системами (BPM, ERP, CRM);
    • обладаете знанием не только «как», но и «почему»;
    • умеете объяснить, как ИИ должен встраиваться, а не заменять.
  4. Не бегите в «спасательные профессии».
    Да, сейчас наблюдается всплеск интереса к data science, «агентным системам», MLOps. Но большинство предложений — те же самые «курсы за неделю», созданные на волне FOMO.
    Вместо этого — ищите мосты:

    • из разработки — в архитектуру процессов (BPMN, CMMN, DMN);
    • из техдока — в юзабилити и информационную архитектуру;
    • из поддержки — в обучение и change management.

    Эти роли не исчезнут — они станут ядром гибридных ИИ-организаций.


Послесловие: времена меняются — ценности — нет

IT как отрасль не исчезнет. Она зрелает.

Период «лёгких денег» (где junior за 6 месяцев становился middle и получал 200 тыс.) завершился — и это хорошо. Он создавал иллюзию, что технология = доход. На самом деле: технология × экспертиза × контекст = устойчивая ценность.

Те, кто пройдёт через 2025–2027 годы с сохранённой ясностью, не просто вернутся на рынок.
Они станут архитекторами следующей волны — не автоматизации, а усиления.

Потому что, как показывает история,
первую волну делают энтузиасты,
вторую — инвесторы,
а третью — профессионалы.

И третья — всегда самая устойчивая.